Text copied to clipboard!
Název
Text copied to clipboard!Vývojář velkých dat
Popis
Text copied to clipboard!
Hledáme zkušeného a motivovaného vývojáře velkých dat, který se připojí k našemu technologickému týmu a bude se podílet na návrhu, vývoji a optimalizaci řešení pro zpracování velkých objemů dat. Jako vývojář velkých dat budete hrát klíčovou roli při vytváření robustních datových platforem, které podporují rozhodování na základě dat a umožňují škálovatelné a efektivní zpracování informací v reálném čase i dávkově.
Vaším hlavním úkolem bude navrhovat a implementovat datové toky, ETL procesy a datové pipelines pomocí moderních technologií jako Apache Spark, Hadoop, Kafka, Hive, či cloudových platforem jako AWS, Azure nebo Google Cloud Platform. Budete úzce spolupracovat s datovými analytiky, datovými inženýry a dalšími vývojáři na vývoji řešení, která umožní efektivní ukládání, transformaci a analýzu dat.
Ideální kandidát má silné programátorské schopnosti v jazycích jako Java, Scala nebo Python, zkušenosti s databázovými systémy (relačními i NoSQL), a hluboké porozumění principům distribuovaného zpracování dat. Znalost DevOps nástrojů a CI/CD procesů je výhodou.
Tato pozice je vhodná pro jednotlivce, kteří mají vášeň pro práci s daty, rádi řeší komplexní technické problémy a chtějí se podílet na vývoji inovativních datových řešení, která mají reálný dopad na podnikání.
Nabízíme flexibilní pracovní prostředí, možnost práce na dálku, přístup k nejmodernějším technologiím a příležitost profesního růstu v dynamickém a podporujícím týmu.
Odpovědnosti
Text copied to clipboard!- Návrh a vývoj datových pipeline pro zpracování velkých dat
- Implementace ETL procesů a optimalizace datových toků
- Spolupráce s datovými analytiky a inženýry na integraci dat
- Správa a údržba distribuovaných datových systémů
- Zajištění kvality a bezpečnosti dat
- Monitorování výkonu a ladění datových aplikací
- Nasazování řešení v cloudovém prostředí (AWS, Azure, GCP)
- Automatizace procesů pomocí DevOps nástrojů
- Dokumentace technických řešení a postupů
- Podpora při řešení technických incidentů a chyb
Požadavky
Text copied to clipboard!- Zkušenosti s technologiemi jako Apache Spark, Hadoop, Kafka
- Znalost programovacích jazyků Java, Scala nebo Python
- Zkušenosti s databázemi (SQL i NoSQL)
- Znalost cloudových platforem (AWS, Azure, GCP)
- Schopnost pracovat v týmu i samostatně
- Zkušenosti s CI/CD a DevOps nástroji
- Analytické myšlení a schopnost řešit problémy
- Znalost anglického jazyka na technické úrovni
- Vysokoškolské vzdělání v oboru informatiky nebo příbuzném
- Zkušenosti s nástroji pro správu verzí (např. Git)
Potenciální otázky na pohovor
Text copied to clipboard!- Jaké technologie pro zpracování velkých dat ovládáte?
- Máte zkušenosti s vývojem v jazyce Scala nebo Java?
- Jaké cloudové platformy jste používal(a) a v jakém rozsahu?
- Popište projekt, na kterém jste pracoval(a) s využitím Apache Spark.
- Jak přistupujete k optimalizaci výkonu datových pipeline?
- Máte zkušenosti s DevOps nástroji a CI/CD procesy?
- Jak řešíte problémy s kvalitou dat?
- Jaké databázové systémy jste používal(a) a proč?
- Jaké jsou vaše silné stránky při práci s velkými daty?
- Jste ochoten/ochotna pracovat v hybridním nebo plně vzdáleném režimu?